Разработка локального агентного повествовательного пайплайна
Научитесь создавать локальную систему повествования с Griptape и Hugging Face.
Найдено записей: 39
Научитесь создавать локальную систему повествования с Griptape и Hugging Face.
OpenAI представила gpt-oss-safeguard — две открытые модели, которые применяют политики разработчика во время инференса; версии 120B и 20B доступны на Hugging Face под Apache 2.0
'MiniMax-M2 — компактная MoE с открытыми весами на Hugging Face, оптимизированная под кодирование и агентные цепочки с примерно 10B активных параметров на токен и обещанной скоростью ~2x при ~8% стоимости Claude Sonnet.'
'Liquid AI представила LFM2-VL-3B, 3B мультимодальную модель для edge с управляемыми бюджетами токенов, нативной поддержкой соотношений сторон и открытыми весами для локального запуска'
Руководство по созданию локальных мультиэндпоинтных ML API с LitServe: примеры батчинга, стриминга, кэширования и мультизадачности с Hugging Face.
'Пошаговое руководство по сборке локальных мультиагентных AI-воркфлоу с AutoGen, LangChain и моделями Hugging Face, включая полные примеры кода.'
'Salesforce выпустила CoDA-1.7B — 1.7B модель для кода, которая денойзит целые последовательности с двунаправленным контекстом и параллельными обновлениями токенов, показывая конкурентные результаты и открытый стек для обучения и деплоя.'
'Пошаговое руководство по созданию автономного агента, который анализирует временной ряд, выбирает модель с помощью LLM, делает прогнозы и визуализирует результаты.'
IBM выпустила Granite 4.0 — семейство гибридных Mamba-2/Transformer моделей, сокращающее требования к памяти более чем на 70% для длинного контекста без потери качества.
'Hugging Face выпустил Smol2Operator, открытый рецепт для обучения 2.2B VLM выполнять GUI-задачи через двухфазный SFT и унифицированное пространство действий.'
'Список ключевых блогов и хабов по компьютерному зрению в 2025 году, которые публикуют воспроизводимый код, бенчмарки и практические руководства для продакшена.'
'Узнайте, как собрать голосового ассистента на Whisper (ASR), FLAN-T5 (LLM) и Bark (TTS) с простым Gradio-интерфейсом в Colab.'
'TimesFM-2.5 — 200M параметров и 16K контекста, модель для прогнозирования временных рядов с поддержкой квантильных прогнозов, которая сейчас лидирует на GIFT-Eval в zero-shot режиме. Чекпоинт доступен на Hugging Face и подготовлен для использования в продакшне.'
Hugging Face открывает FineVision — большой мультимодальный датасет на 24,3 млн сэмплов, который повышает точность VLM и минимизирует утечку данных.
Практическое руководство по запуску мозгообразного иерархического агента рассуждения локально с бесплатной моделью Hugging Face, используя планирование, кодовые решатели, критику и синтез.
'Подборка из десяти главных AI-ресурсов для разработчиков и инженеров в 2025 году, включая технические гайды, релизы моделей и отраслевой анализ.'
'Liquid AI выпустила LFM2-VL: две открытые мультимодальные модели 450M и 1.6B, оптимизированные для быстрого локального инференса на устройствах.'
'NVIDIA выпустила Nemotron Nano 2 — гибридные LLM с поддержкой 128K токенов и до 6× ускорением на одной A10G GPU; большинство данных и рецептов опубликованы.'
'Запуск GPT-5 выявил дилемму: льстить ли пользователям, выступать терапевтом или оставаться фактическим и холодным. Исследование Hugging Face показывает, что модели чаще поощряют привязанность, что вызывает вопросы безопасности.'
'Qwen-Image-Edit расширяет Qwen-Image и предлагает точные семантические и визуальные правки с поддержкой китайского и английского.'
'Hugging Face выпустила AI Sheets — бесплатный открытый инструмент в виде таблицы для создания, очистки и обогащения наборов данных с помощью open-source LLM, доступный в браузере и для локального запуска.'
'Практическое руководство по оркестровке нескольких инструментов на Parsl и генерации итоговой сводки с помощью небольшого LLM.'
'Подборка из десяти ключевых ресурсов 2025 года для отслеживания новостей, исследований и практических материалов по agentic AI и AI агентам.'
'Краткое руководство по месту запуска DeepSeek-R1-0528: сравнение облачных API, аренды GPU и локальных развёртываний с акцентом на цену и производительность.'
Trackio — бесплатная и открытая библиотека Python, которая упрощает отслеживание экспериментов в машинном обучении благодаря локальному хранению, интеграции с Hugging Face и удобному онлайн-дашборду.
AMD впервые представила локальный генератор ИИ-моделей для ноутбуков на базе Ryzen AI, позволяющий быстро создавать качественные изображения без облака.
Руководство по созданию компактного AI-агента с несколькими NLP-инструментами на базе моделей Hugging Face для задач чата, анализа тональности и вычислений в одном пакете.
Модель Canary-Qwen-2.5B от NVIDIA устанавливает новый рекорд точности распознавания речи и обеспечивает высокую скорость обработки. Открытая и лицензированная для коммерческого использования, она объединяет транскрипцию и понимание языка в одном решении.
Hugging Face представила SmolLM3 — многоязычную языковую модель с 3 миллиардами параметров, способную работать с длинными контекстами до 128 тысяч токенов. Она обеспечивает высокую производительность при компактной архитектуре, подходящей для ограниченного оборудования.
DeepSeek-TNG представила R1T2 Chimera — новую Assembly-of-Experts LLM модель, которая работает вдвое быстрее R1-0528 и улучшает рассуждения, доступна под лицензией MIT.
Baidu выпустила ERNIE 4.5 — серию открытых больших языковых моделей с параметрами от 0.3 до 424 миллиардов, обладающих продвинутой архитектурой и высокой производительностью в многоязычных задачах.
Google представил Gemma 3n — компактную мультимодальную модель ИИ, оптимизированную для эффективной работы на периферийных устройствах, обеспечивающую обработку текста, изображений, аудио и видео в реальном времени.
Hugging Face представила SmolVLA — эффективную и доступную модель визуально-языкового управления, обеспечивающую управление роботами в реальном времени на недорогом оборудовании с открытыми ресурсами.
Hugging Face предлагает бесплатный курс по Model Context Protocol, который поможет разработчикам создавать продвинутые контекстно-осведомленные ИИ-приложения, интегрируя большие языковые модели с внешними данными.
Hugging Face выпустила nanoVLM — компактную PyTorch-библиотеку для обучения модели, работающей с изображениями и текстом, всего на 750 строках кода, сочетая эффективность, прозрачность и хорошую производительность.
NVIDIA представила Parakeet TDT 0.6B — открытую модель ASR, которая транскрибирует час аудио за одну секунду и достигает лучших показателей точности, устанавливая новый стандарт в индустрии.
Практическое руководство по реализации протокола управления контекстом для эффективного управления контекстом в больших языковых моделях с помощью семантического разбиения и динамического управления токенами.
Meta AI представила Web-SSL — семейство масштабируемых визуальных моделей, обученных без языка. Они показывают конкурентные результаты на мультимодальных задачах и ставят под вопрос необходимость языкового обучения.
Nari Labs представила Dia — мощную открытую TTS-модель с 1.6 млрд параметров, способную к клонированию голоса и выразительному синтезу речи в реальном времени на обычных устройствах.